jjzjj

ios - 为 Xamarin.iOS 将 .mlmodel 编译为 .mlmodelc?

我想为我的Xamarin.iOS应用程序使用CoreML,但如何使用模型?developer.xamarin中的所有示例都使用.mlmodelc,但我下载了.mlmodel。如何转换为.mlmodelc? 最佳答案 您可以使用Xcode来编译您的模型:xcruncoremlcompilercompileMyModel.mlmodelMyModel.mlmodelc这会输出一个.mlmodelc,您可以将其添加到您的项目中。或者您可以使用MLModel.compileModel(at:)在您的应用程序中动态执行此操作。

ios - 如何应用iOS VNImageHomographicAlignmentObservation warpTransform?

我正在测试Apple的VisionAlignmentAPI,对VNHomographicImageRegistrationRequest有疑问。有人让它工作吗?我可以从中获取warpTransform,但我还没有看到有意义的矩阵,这意味着,我无法获得将图像扭曲回源图像的结果。我正在使用OpencvwarpPerspective来处理变形。我调用它来获取转换:classfunchomography(_cgImage0:CGImage!,_cgImage1:CGImage!,_orientation:CGImagePropertyOrientation,completion:(matrix

ios - 动态加载 mlmodel

我正在体验CoreML在项目中的能力。这是我设法做到的:在Python中使用scikit-learn创建.pkl文件使用coremltools包将其转换为.mlmodel文件将其下载到我的iOS应用程序在运行时编译它:letclassifierName="classifier1"letfileName=NSString(format:"%@.mlmodel",classifierName)letdocumentsUrl:URL=FileManager.default.urls(for:.documentDirectory,in:.userDomainMask).firstasURL!l

iOS加密CoreML模型

生成模型加密密钥必须在Xcode的Preferences的Accounts页面登录AppleID,才能在Xcode中生成模型加密密钥。在Xcode中打开模型,单击Utilities选项卡,然后单击“CreateEncryptionKey”按钮。从下拉菜单中选择当前App的PersonalTeam,然后单击“continue”按钮。 Xcode的确认对话框提供了一个箭头按钮,可以跳转到Finder中的加密密钥。Xcode将模型加密密钥文件保存在与原始模型文件相同的文件夹中,并使用其基名与.mlmodelkey扩展名。例如,名为Classifier.mlmodel模型的加密密钥是同一目录中的Cla

如何在Coreml中使用幼稚的贝叶斯分类?

我正在尝试在Coreml中构建数字分类模型,并希望使用NaiveBayes分类器,但无法找到如何使用它。我的算法正在使用天真的贝叶斯看答案目前,Coremltools仅支持以下类型的分类器:SVM(Scikitlearn)神经网络(Keras,Caffe)决策树及其合奏(Scikitlearn,XGBoost)线性和逻辑回归(Scikitlearn)但是,在Swift自己中实施幼稚的贝叶斯并不难,请检查一下例如.

ios - 有没有办法在源代码级别使 CoreML 模型可用于 iOS11+

我的应用程序中有一个CoreML模型。在运行时,预测功能应在iOS8-10上禁用并在iOS11上激活。为了能够编译,在所有使用CoreML的类上,我添加了:@available(iOS11.0,*)但是.mlmodel会在每次重建时生成Swift代码并丢弃所有注释。因此会产生编译错误,例如:'MLModel'isonlyavailableoniOS11.0ornewer在Xcode9中有没有办法让mlmodel仅适用于iOS11?编辑:此错误已在XCode9beta4中修复。不再需要解决方法。 最佳答案 更新。2017年7月25日:

ios - 找不到与 coremltools 匹配的分布

我尝试在我的Mac上使用coremltools将caffemodel转换为mlmodel。在“pipinstall-Ucoremltools”之后,我得到了这个:“收集coremltools找不到满足coremltools要求的版本(来自版本:)找不到与coremltools匹配的分布“enterimagedescriptionhere而且,我的python版本是“Python2.7.10”,numpy版本是“numpy(1.12.1)”,protobuf版本是“protobuf(3.2.0)”我使用了“pipsearchcoremltools”,得到了“coremltools(0.3

ios - 将 UIImage 转换为 Keras 模型的 MLMultiArray

在Python中,我使用keras训练了一个图像分类模型,以接收作为[224,224,3]数组的输入并输出预测(1或0)。当我加载保存模型并将其加载到xcode中时,它指出输入必须采用MLMultiArray格式。有没有办法将UIImage转换为MLMultiArray格式?或者有没有办法改变我的keras模型以接受CVPixelBuffer类型的对象作为输入。 最佳答案 在您的CoreML转换脚本中,您可以提供参数image_input_names='data',其中data是您输入的名称。现在CoreML会将此输入视为图像(CV

python - Core ML 模型转换失败,返回 "Unable to infer input name and dimensions"

我正在尝试从Places205-GoogLeNet制作一个CoreML模型,如Apple所述here.我不想用苹果现成的模型,所以我从这个链接得到了原始模型:https://developer.apple.com/machine-learning/model-details/Places205-GoogLeNet.txt根据Apple的WWDCsession,我们可以使用Coremltools转换该模型。在他们的session中,我们不知道他们使用哪个IDE进行Python编码,但目前我正在使用Pycharm进行Python编码。使用模型链接,我们可以得到两个东西.caffemodel

ios - MobileNet vs SqueezeNet vs ResNet50 vs Inception v3 vs VGG16

我最近一直在考虑将面向iOS开发人员的机器学习版本与我的应用程序相结合。由于这是我第一次使用任何与ML相关的东西,所以当我开始阅读Apple提供的不同模型描述时,我感到非常迷茫。它们具有相同的目的/描述,唯一的区别是实际文件大小。这些模型之间有什么区别,您如何知道哪一个最适合? 最佳答案 Apple提供的模型仅用于简单的演示目的。大多数时候,这些模型不足以在您自己的应用中使用。Apple下载页面上的模型是为一个非常特定的目的而训练的:ImageNet数据集上的图像分类。这意味着他们可以拍摄图像并告诉您图像中的“主要”对象是什么,但前